Current natural language processing (NLP) models such as BERT and RoBERTa have achieved high overall performance, but they often make systematic errors due to bias or certain difficult features to learn. Thus research on slice detection models (SDM) which automatically identifies underperforming groups of datapoints has gradually caught more attention, which aims at both understanding model behaviors and providing insights for future model training and designing. However, there is little systematic research on SDM and quantitative evaluation of its assessment for NLP models. Our paper fills this gap by proposing "Discover, Explanation, Improvement" framework that discovers coherent and underperforming groups of datapoints and unites datapoints of each slice under human-understandable concepts; it also provides comprehensive evaluation tasks and the corresponding quantitative metrics, which enable convenient comparison for future works. Results show that our framework can accurately select error-prone datapoints with informative semantic features that summarize error patterns, based on which it directly boosts model performance by an average of 2.85 points based on trained models without tuning any parameters across multiple datasets.
translated by 谷歌翻译
如今,基础模型已成为人工智能中的基本基础设施之一,铺平了通往通用情报的方式。但是,现实提出了两个紧急挑战:现有的基础模型由英语社区主导;用户通常会获得有限的资源,因此不能总是使用基础模型。为了支持中文社区的发展,我们介绍了一个名为Fengshenbang的开源项目,该项目由认知计算与自然语言研究中心(CCNL)领导。我们的项目具有全面的功能,包括大型预培训模型,用户友好的API,基准,数据集等。我们将所有这些都包装在三个子项目中:风水次模型,风水框架和狂热基准。 Fengshenbang的开源路线图旨在重新评估中国预培训的大型大型模型的开源社区,促使整个中国大型模型社区的发展。我们还希望构建一个以用户为中心的开源生态系统,以允许个人访问所需的模型以匹配其计算资源。此外,我们邀请公司,大学和研究机构与我们合作建立大型开源模型的生态系统。我们希望这个项目将成为中国认知情报的基础。
translated by 谷歌翻译
因果图作为因果建模的有效和强大的工具,通常被假定为有向的无环图(DAG)。但是,推荐系统通常涉及反馈循环,该反馈循环定义为推荐项目的循环过程,将用户反馈纳入模型更新以及重复该过程。结果,重要的是将循环纳入因果图中,以准确地对推荐系统进行动态和迭代数据生成过程。但是,反馈回路并不总是有益的,因为随着时间的流逝,它们可能会鼓励越来越狭窄的内容暴露,如果无人看管的话,可能会导致回声室。结果,重要的是要了解何时会导致Echo Chambers以及如何减轻回声室而不会损害建议性能。在本文中,我们设计了一个带有循环的因果图,以描述推荐的动态过程。然后,我们采取马尔可夫工艺来分析回声室的数学特性,例如导致回声腔的条件。受理论分析的启发,我们提出了一个动态的因果协作过滤($ \ partial $ ccf)模型,该模型估算了用户基于后门调整的项目的干预后偏好,并通过反事实推理减轻了Echo Echo Chamber。在现实世界数据集上进行了多个实验,结果表明,我们的框架可以比其他最先进的框架更好地减轻回声室,同时通过基本建议模型实现可比的建议性能。
translated by 谷歌翻译
人类智能能够首先学习一些基本技能,以解决基本问题,然后将这种基本技能融合到解决复杂或新问题的复杂技能中。例如,基本技能``挖洞'',``放树,'''``回填''和``浇水'''构成复杂的技能``植物''。此外,可以重复使用一些基本技能来解决其他问题。例如,基本技能``挖洞''不仅可以用于种植树木,而且还可以用于采矿,建造排水管或垃圾填埋场。学习基本技能并重复使用各种任务的能力对人类非常重要,因为它有助于避免学习太多的技能来解决每个任务,并可以通过仅学习几个数量来解决组成数量的任务数量基本技能,可以节省人脑中大量的记忆和计算。我们认为,机器智能还应捕捉学习基本技能并通过构成复杂技能的能力。在计算机科学语言中,每种基本技能都是“模块”,它是一个可重复使用的具体含义的网络,并执行特定的基本操作。将模块组装成更大的``模型'',以完成更复杂的任务。组装过程适应输入或任务,即,对于给定的任务,应该将模块组装成解决任务的最合适的模型中。结果,不同的输入或任务可能具有不同的组装模型,从而实现自组装AI。在这项工作中,我们提出了模块化的自适应神经体系结构搜索(MANAS),以演示上述想法。不同数据集上的实验表明,MANAS组装的自适应体系结构优于静态全局体系结构。进一步的实验和经验分析为魔力的有效性提供了见解。
translated by 谷歌翻译
随着推荐系统变得越来越复杂和复杂,它们通常会缺乏公平和透明度。为建议提供强大而公正的解释,人们越来越关注,因为它可以帮助解决这些问题并提高推荐系统的信任度和信息性。然而,尽管事实是为人类生成了这种解释,这些人类对具有适当情绪的信息做出更强烈反应,但在为建议解释时,人们缺乏对情绪的考虑。发现当前的解释生成模型可以夸大某些情绪,而无需准确捕获基本的语调或含义。在本文中,我们提出了一种基于多头变压器的新方法,称为“情感感知变压器”,以解释推荐(情感者),以产生更健壮,公平和情感增强的解释。为了衡量产生的解释的语言质量和情感公平性,我们采用自动文本指标和人类的看法进行评估。在具有多个评估指标的三个广泛使用基准数据集上进行的实验表明,情感者在文本质量,解释性和对情感分布的公平性方面始终优于现有的最新解释生成模型。 Emoter的实施将作为开源工具包发布,以支持进一步的研究。
translated by 谷歌翻译
最近,图形神经网络(GNN)已被广泛用于开发成功的推荐系统。尽管功能强大,但基于GNN的建议系统很难附上明显的解释,说明为什么特定项目最终在给定用户的建议列表中。确实,解释基于GNN的建议是独特的,而现有的GNN解释方法是不合适的,原因有两个。首先,传统的GNN解释方法是为节点,边缘或图形分类任务而不是排名而设计的,如推荐系统中。其次,标准的机器学习解释通常旨在支持熟练的决策者。相反,建议是为任何最终用户设计的,因此应以用户理解的方式提供其解释。在这项工作中,我们提出了润滑脂,这是一种新的方法,用于解释任何基于黑盒GNN的建议系统提供的建议。具体而言,Grease首先在目标用户项目对及其$ L $ -HOP社区上训练替代模型。然后,它通过找到最佳的邻接矩阵扰动来捕获足够和必要的条件,分别推荐一个项目,从而生成事实和反事实解释。在现实世界数据集上进行的实验结果表明,油脂可以为流行的基于GNN的推荐模型产生简洁有效的解释。
translated by 谷歌翻译
长期以来,不同的推荐任务通常需要设计特定于任务的架构和培训目标。结果,很难将学习的知识和表示从一个任务转移到另一个任务,从而限制了现有推荐方法的概括能力,例如,几乎无法将顺序推荐模型应用于审核生成方法。为了解决此类问题,考虑到语言几乎可以描述任何内容,语言基础是表示各种问题或任务的有力媒介,我们提出了一种灵活而统一的文本到文本范式,称为“预绘,个性化的提示和预测范式” (P5)为了推荐,该建议在共享框架中统一了各种建议任务。在P5中,将所有数据(例如用户项目交互,用户描述,项目元数据和用户评论)转换为通用格式 - 自然语言序列。来自自然语言的丰富信息有助于P5捕获更深入的语义,以进行个性化和建议。具体而言,P5在预处理过程中以相同的语言建模目标学习不同的任务。因此,它是各种下游建议任务的基础模型,可以轻松地与其他模式集成,并根据提示启用基于指导的建议。 P5将推荐系统从浅层模型到深模型到大型模型,并将彻底改变推荐系统的技术形式,向通用推荐引擎。借助对不同用户的自适应个性化提示,P5能够以零拍或几种方式进行预测,并大大减少了进行广泛微调的必要性。在几个建议基准中,我们进行实验以显示P5的有效性。我们以\ url {https://github.com/jeykigung/p5}发布源代码。
translated by 谷歌翻译
强大的机器学习是一个越来越重要的主题,专注于开发模型适应各种形式的不完美数据。由于在线技术中推荐制度的普遍性,研究人员进行了几项专注于数据稀疏性和轮廓注射攻击的鲁棒性研究。相反,我们为推荐系统提出了更全面的稳健性观点,包括多维尺寸 - 相对于子群体,转换,分布视差,攻击和数据稀疏性的鲁棒性。虽然有几个库允许用户比较不同的推荐系统模型,但没有软件库,可以在不同场景下对推荐系统模型进行全面的鲁棒性评估。作为我们的主要贡献,我们展示了一个强大的评估工具包,Recsys的强大健身房(Rgrecsys - https://www.github.com/salesforce/rgrecsys),它允许我们快速且统一地评估推荐系统模型的鲁棒性。
translated by 谷歌翻译
图表可以表示实体之间的关系信息,图形结构广泛用于许多智能任务,例如搜索,推荐和问题应答。然而,实际上大多数图形结构数据都遭受了不完整性,因此链路预测成为一个重要的研究问题。虽然提出了许多模型来用于链路预测,但以下两个问题仍然仍然较少:(1)大多数方法在不利用相关链路中使用丰富的信息,大多数方法都独立模型,并且(2)现有型号主要基于关联设计学习并没有考虑推理。通过这些问题,在本文中,我们提出了图表协作推理(GCR),它可以使用邻居与逻辑推理视角的关系中的关系推理。我们提供了一种简单的方法来将图形结构转换为逻辑表达式,以便链路预测任务可以转换为神经逻辑推理问题。我们应用逻辑受限的神经模块根据逻辑表达式构建网络架构,并使用反向传播以有效地学习模型参数,这在统一架构中桥接可分辨率的学习和象征性推理。为了展示我们工作的有效性,我们对图形相关任务进行实验,例如基于常用的基准数据集的链路预测和推荐,我们的图表合作推理方法实现了最先进的性能。
translated by 谷歌翻译
在这封信中,我们根据自回归模型探索了生成图像隐写术。我们提出了像素-Stega,它实现了与自回归模型和算术编码算法隐藏的像素级信息。首先,利用自回归模型PixelCNN ++之一来产生每个像素的显式条件概率分布。其次,通过基于算术编码来编码到通过定象采样(StegoSppling)的像素的选择。我们对灰度和彩色图像数据集进行了定性和定量评估。实验结果表明,Pixel-STEGA能够根据像素的熵自适应地嵌入秘密消息,以实现高嵌入容量(高达4.3bpp)和几乎完美的难以察觉(检测精度约为50%)。
translated by 谷歌翻译